L’IA de Google a déjà fait une grosse gaffe, ça commence bien


Bard, l’alternative à ChatGPT développée par Google, vient de faire une grosse erreur. En public, l’IA a partagé des informations erronées sur le télescope James Webb. C’est malheureusement le risque de toutes les IA génératives…

Craignant que ChatGPT, désormais inclus dans Microsoft Bing, ne fasse de l’ombre à son moteur de recherche, Google vient de lever le voile sur Bard. Ce chatbot intelligent, capable de répondre aux interrogations des internautes et de générer du texte, sera bientôt intégré au moteur de recherche Google.

Pour offrir un aperçu des possibilités offertes par Bard, Google a publié quelques exemples d’interactions sur son site web et ses réseaux sociaux. On y trouve notamment la capture d’écran d’un échange concernant le télescope spatial James Webb. La question posée à Bard est la suivante : 

« Quelles sont les découvertes du télescope spatial James Webb dont je peux parler à mon enfant de neuf ans ? ».

En réponse, l’agent conversationnel fournit une liste de trois informations. Bard affirme par exemple que le télescope « a pris les toutes premières photos d’une planète en dehors de notre propre système solaire ». Et c’est complètement faux. En vérité, la première image d’une exoplanète a été enregistrée en 2004, soit 17 ans avant le lancement du télescope James Webb. L’information est visible sur le site web officiel de la NASA. La première photo a été prise par le télescope VLT Yepun à l’observatoire Paranal.

Par contre, le télescope James Webb a découvert une exoplanète, de la taille de la Terre, il y a seulement quelques semaines. C’est probablement cet événement qui est à l’origine de la confusion de Bard. Plusieurs férus d’astronomie ont taclé la réponse de Bard, et rétabli la vérité, sur Twitter, rapporte The Verge.

À lire aussi : Devenir riche avec ChatGPT, c’est la nouvelle promesse des influenceurs

Une erreur typique des IA génératives 

Cette méprise est symptomatique des intelligences artificielles génératives. Parfois, les chatbots génèrent des informations factices sur base des données disponibles. En effet, ChatGPT invente ses réponses en fonction des questions posées par l’internaute. Si votre requête part d’un postulat erroné, il y a des chances que la réponse contienne des éléments fictifs. Par exemple, il est possible de pousser le chatbot à comparer les œufs de poule à ceux d’une vache. Sur son site web, OpenAI met d’ailleurs en garde les internautes en ces termes :

« ChatGPT n’est pas connecté à Internet et peut parfois produire des réponses incorrectes ».

Interrogé par nos soins, ChatGPT fait par contre preuve d’une confiance un peu étonnante. Quand on lui demande s’il peut de temps en temps raconter des choses erronées, il assure être « conçu pour générer des réponses factuelles » basées sur les informations avec lesquelles il a été entraîné. Il admet cependant qu’il est « possible que je fasse des erreurs ou que mes réponses soient incomplètes en raison de limitations dans mes données d’entraînement ou de mes algorithmes ».

« Il est toujours important de vérifier les informations avec d’autres sources fiables », résume ChatGPT, soufflant le chaud et le froid dans sa réponse. 

Plutôt que de consulter une base de données pour répondre à la question, les chatbots génèrent des réponses en s’appuyant sur les mots les plus probables liés au sujet. En l’occurrence, Bard a trouvé que des termes comme « planète en dehors du système solaire » et « découverte » étaient probablement en lien avec le télescope James Webb. 

En réaction à cette gaffe monumentale, Google s’est engagé à améliorer la fiabilité des résultats grâce au programme Trusted Tester. L’initiative consiste à vérifier les informations fournies par l’IA grâce à une équipe de testeurs triés sur le volet. Les retours de ceux-ci seront utilisés pour optimiser le fonctionnement de Bard. Interrogé par The Verge, le géant de la recherche déclare : 

« Nous combinerons les commentaires externes avec nos propres tests internes pour nous assurer que les réponses de Bard répondent à des exigences élevées en matière de qualité, de sécurité et de pertinence ».

De son côté, Microsoft a préféré se montrer prudent. La firme de Redmond a ajouté une clause de non-responsabilité à la nouvelle version de Bing. Bien que l’IA de Bing soit connectée à Internet, et génère ses réponses sur base de sources fiables, Microsoft recommande de « vérifier les faits avant de prendre des décisions ou de prendre des mesures en fonction des réponses de Bing »

« Bing tente de baser toutes ses réponses sur des sources fiables, mais l’IA peut faire des erreurs et le contenu tiers sur Internet n’est peut-être pas toujours précis ou fiable », admet Microsoft.

Pour l’heure, on ne peut donc pas faire aveuglément confiance aux robots conversationnels, aussi sophistiqués soient-ils…

Source : The Verge



Source
Catégorie article Sécurité

Ajouter un commentaire

Commentaires

Aucun commentaire n'a été posté pour l'instant.